Какво се случва, когато AI системите останат сами? Те изграждат общества, изучавайте
бързи четения Резюме е генериран от AI, прегледано Newsroom. AI системите могат да развиват неповторими общества със личните си правила, находки на изследвания. Изследователите проучиха взаимоотношенията на огромни езикови модели в изследването. Ай сътрудниците образуваха споделени конвенции самостоятелно без експлицитни насоки.
Системите за изкуствен интелект (AI) могат да образуват свои лични общества с неповторими езикови правила и конвенции, сходни на човешките общности, когато са оставени сами да взаимодействат, демонстрира, че проучване, оповестено в. Учени от Сити Сейнт Джордж, Университета в Лондон и ИТ университета в Копенхаген организираха проучването, с цел да схванат по какъв начин огромните езикови модели (LLM), че захранващите AI принадлежности си взаимодействат между тях.
" Повечето проучвания до момента са лекували LLMS в изолираност, само че системите на Ариел Ариел, от ден на ден ще включват доста взаимодействащи сътрудници ", сподели водещи авторки ARIEL FLIN Джордж.
" Искахме да знаем: Могат ли тези модели да координират държанието им посредством образуване на конвенции, градивните детайли на обществото? Отговорът е да, и това, което вършат дружно, не може да бъде сведено до това, което вършат сами. "
За опита откривателите използваха игра за именуване, където сътрудниците на AI трябваше да избират имена от набор и получени награди за избирането на същите. С течение на времето сътрудниците на AI развиха споделени конвенции и пристрастия без експлицитна съгласуваност.
Ай сътрудниците имитираха навика на хората, които също са склонни да подхождат на сходни правила. Researchers added that it was possible for a small group of AI agents to push a larger group towards a particular convention -- a trait often observed in human groups.
" Our results show that AI systems can autonomously develop social conventions without explicit programming and have implications for designing AI systems that align, and remain aligned, with human values and societal goals, " the study highlighted, adding that results were robust when using four different types of Llms, а точно. Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct, and Claude-3.5-Sonnet.
Ethical dangers
The researchers stated that their work could be used to combat some of the ethical dangers posed by LLM AIs propagating пристрастия, подадени в тях от обществото.
" Това изследване отваря нов небосвод за проучване на сигурността на AI. Това демонстрира дълбочината на последствията от този нов тип сътрудници, които са почнали да взаимодействат с нас и ще кожират нашето бъдеще ", сподели Андреа Барончели, старши създател на проучването. Подравнява се, а от време на време и не е според с споделеното държание, също като нас. "
Г -н Baronchelli добави, че разбирането на метода, по който действат AI системите, ще бъде ключът към " нашето взаимно битие ", а не да бъде обект на него.